Qu'est-ce que pied noir ?

Les Pieds-Noirs sont les personnes d'origine européenne nées en Algérie pendant la période de la colonisation française (1830-1962). Le terme est également appliqué à leurs descendants. Après la guerre d'Algérie et l'indépendance du pays en 1962, la grande majorité des Pieds-Noirs a quitté l'Algérie pour s'installer en France métropolitaine, ainsi que dans d'autres pays.

Voici quelques aspects importants liés à ce sujet :